热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

深度|周明:自然语言处理的未来之路|CCFGAIR2019

https:www.toutiao.comi67133856329425228912019-07-1413:24:582012年至今,自然语言处理进入神经网络时代已经

https://www.toutiao.com/i6713385632942522891/

 

2019-07-14 13:24:58

深度 | 周明:自然语言处理的未来之路 | CCF-GAIR 2019深度 | 周明:自然语言处理的未来之路 | CCF-GAIR 2019

2012年至今,自然语言处理进入神经网络时代已经7年,未来发展之路朝向何方?我们来看ACL 2019主席、微软亚洲研究院副院长周明博士如何解读~

AI 科技评论按:7 月 12 日-7 月 14 日,2019 第四届全球人工智能与机器人峰会(CCF-GAIR 2019)于深圳正式召开。峰会由中国计算机学会(CCF)主办,雷锋网、香港中文大学(深圳)承办,深圳市人工智能与机器人研究院协办,得到了深圳市政府的大力指导,是国内人工智能和机器人学术界、工业界及投资界三大领域的顶级交流博览盛会,旨在打造国内人工智能领域极具实力的跨界交流合作平台。

周明博士在CCF-GAIR 2019会议上从什么是自然语言处理(NLP)、当前技术体系以及未来发展等角度,解读了NLP未来发展之路。我们来看。

深度 | 周明:自然语言处理的未来之路 | CCF-GAIR 2019

大家下午好!今天非常荣幸来到CCF-GRIR大会,今天下午这个论坛非常有意义,讲的是中国人工智能四十周年纪念活动。

我是1985年在哈工大开始从事机器翻译研究的,到现在也已经有30多年了,经历了规则、统计和神经网络的三个阶段。回想过去真是感慨万千,当时可以说是筚路蓝缕,没有什么东西,但是大家有一番热情,要把中国自然语言、机器翻译、人工智能推到世界的前沿。

中国人工智能开始于1979年到今天转眼过去40年了。回首看一下我们的自然语言处理进展到什么程度了?我们未来的路在哪里?这就是我今天要给大家介绍的。

过去40年,自然语言基本上经历了从规则到统计,到现在的神经网络。相比过去,目前可以说是自然语言处理最黄金的时期,在很多领域都取得了突破性的进展。但我们审慎地看到神经网络自然语言处理过度依赖计算资源和数据,在建模、推理和解释方面还存在许多的不足。因此我们想问一下,这种模式是否可以持续?在未来的3到5年,NLP如何发展?

为了回答这个问题,我想把神经网络自然语言处理的技术在这里捋一遍,有哪些关键的技术点,存在哪些不足,我们未来又如何发展。我的观点是:NLP未来的发展需要计算、数据、技术、人才、合作、应用等各个方面长期协同发展。

 


自然语言处理

什么叫自然语言处理?自然语言处理就是用计算机对人类语言进行处理,使得计算机具备人类的听、说、读、写能力,它是未来人工智能技术最为关键的核心之一。比尔·盖茨说过,“自然语言处理是人工智能皇冠上的明珠,如果我们能够推进自然语言处理,就可以再造一个微软。”

难度:把NLP看作人工智能皇冠上的明珠,其难度可想而知。来看下面这个例子:

深度 | 周明:自然语言处理的未来之路 | CCF-GAIR 2019

词完全一样,意义截然相反。人在理解的时候有常识,有背景,所以能够理解;可电脑没有常识、没有背景,只是根据字面来处理,因此它理解的都是一样的。这就是自然语言处理的难处。

深度 | 周明:自然语言处理的未来之路 | CCF-GAIR 2019

历史:自然语言处理随着计算机的出现而出现,最早是做规则的系统,后面做统计的系统,现在做神经网络的系统。咱们中国的自然语言出现一点也不晚,建国之初就有人开始做俄汉机器翻译系统,后面又有人做英汉机器翻译系统。我个人也有幸亲历和见证了机器翻译的发展。我在哈工大的读研时候(导师李生教授,1985年),从事中英机器翻译研究,所研制的 CEMT 系统是中国最早通过正式鉴定的中英机器翻译系统(1998年)。后来我在日本高电社领导研发了中日机器翻译产品 J - 北京(1998年)。我1999年加入微软之后先后从事了基于实例和基于统计机器翻译研究,最近几年我们做神经机器翻译研究。

可以说中国的自然语言处理是与世界的发展同步的。目前我可以很负责任地说,咱们中国的自然语言处理总体来讲位居世界第二,仅次美国。为什么能有这么好的发展?得益于中国40年改革开放,得益于各大公司和很多学校的合作,尤其值得指出的是微软研究院与相关学校的合作影响深远。同时也得益于包括CCF在内的各个学会过去几十年在NLP领域深耕,举办学术会议(NLPCC最近进入CCF-国际会议列表)和各类暑期学校和讲习班,促进学校、企业、公司各个单位合作,并推动研究协同式、平台式发展。

深度 | 周明:自然语言处理的未来之路 | CCF-GAIR 2019

定位:人工智能就是用电脑来实现人类独具的智能。使得电脑能听、会说、理解语言、会思考、解决问题、会创造。具体概括来讲包括:运算智能、感知智能、认知智能和创造智能。运算智能就是记忆和计算的能力。这一点计算机已经远远超过人类。而感知智能就是电脑感知环境的能力,包括听觉,视觉,触觉等等。相当于人类的耳朵、眼睛和手。认知智能包括语言理解、知识和推理。创造智能体现对未见过、未发生事物,运用经验,通过想象力、设计、实验、验证并予以实现的智力过程。

目前随着感知智能的大幅度进步,人们的焦点逐渐转向了认知智能。其中语言智能,也就是自然语言理解,则被认为是皇冠上的明珠。一旦有突破,则会大幅度推动认知智能,并提高人工智能的技术,并促进在很多重要场景落地。

过去几年,由于数据越来越多,出现各种测试集;算法越来越复杂、越来越先进,包括神经网络的架构、预训练模型等等;计算能力越来越高,在这三大因素的作用下,自然语言处理得到了飞速的发展。

深度 | 周明:自然语言处理的未来之路 | CCF-GAIR 2019

微软在四个NLP典型任务取得了突破性的进展。第一个是聊天机器人,我们中、日、英三种语言的聊天机器人均能达到跟人自由聊天23轮以上,目前在世界上是最好的。还有我们的阅读理解技术、机器翻译技术和语法检查系统,在目前的测试集下都居世界领先水平,而且在相应的测试集下都突破了人类的标注水平。

自然语言有很多的应用,像我们每天都用的输入法、词典、翻译,以及我们跟中科院合作的手语翻译、必应的语音助手、小冰,还有自然语言的文本生成,对联、诗词、猜谜、音乐等等。

 


技术体系

我给大家捋一下神经网络自然语言处理的技术体系。

首先是词的编码。词编码的目的是用多维向量来表征词的语义。怎么做呢?著名的方法有两个,一个是 CBOW((Continuous Bag-of-Words),用周围的词预测当前的词;另一个是 Skip-gram,用当前的词预测周围的词。通过大规模的学习训练,就可以得到每个词稳定的多维向量,作为它的语义表示。

有了词的语义表示,我们就可以进而生成句子的语义表示,也叫句子的编码。一般通过RNN(循环神经网络)或者CNN(卷积神经网络)来做。RNN从左到右对句子进行建模,每个词对应一个隐状态,该引状态代表了从句首到当前词的语义信息,句尾的状态就代表了全句的信息。CNN从理论上分别进行词嵌入+位置嵌入+卷积,加上一个向量表示,对应句子的语义。

基于这样的表征,我们就可以做编码、解码机制。比如说我们可以用图上的红点,它代表全句的语义信息,来进行解码,可以从一种语言翻译成另一种语言,凡是从一个序列串变成另外一个序列串都可以通过编码、解码机制来运行。

随后又引入了注意力模型。它综合考量了在当前状态下对应的编码的每一个隐状态,加权平均,来体现当前的动态输入。这类技术引入之后,神经网络机器翻译就得到了飞速的发展。

后面又引入了Transformer。Transformer引入了自编码,一个词跟周围的词建立相似,引入多头,可以引入多种特征表达,所以编码效果或者编码的信息更加丰富。

现在大家都在追捧预训练模型。它有几个方法,第一个是ELMo,从左到右对句子编码,也可以从右到左对句子编码,每一层对应的节点并起来,就形成了当前这个词在上下文的语义表示。用的时候就用这个语义加上词本身的词嵌入,来做后续的任务,性能便得到相应的提高。

还有去年10月份比较火的BERT。它用左边、右边的信息来预测最外部的词的信息,同时它也可以判断下一句是真的下一句还是伪造的下一句,用两种方式对句子每一个词进行编码,得到的训练结果就表征了这个词在上下文中的语义表示。基于这样的语义表示,就可以判断两个句子的关系,比如说是不是附属关系,判断一个句子的分类(例如Q&A中,判断回答对应的边界是不是对应提问),以及对输入的每一个词做一个标注,结果就得到一个词性标注。

预训练模型引起了很多人的关注最早是一个静态的词的表征,所谓静态词的表征,就是不管上下文,表征是一样的,比如“bank”这个词有多个意思,它的表征也是一样的。但是ELMo就要根据上下文体现它唯一的表征。

基于以上的方法,人们又开发了一系列的新的方法,比如说GPT-2,以及最近的XLNET,以及UNILM、MASS、MT-DNN、XLM,都是基于这种思路的扩充,解决相应的任务各有所长。其中微软研究院的 UNILM 可同时训练得到类似 BERT 和 GPT 的模型,而微软 MASS 采用 encoder-decoder 训练在机器翻译上效果比较好。还有 MT-DNN 强调用多任务学习预训练模型,而 XLM 学习多语言 BERT 模型,在跨语言迁移学习方面应用效果显著。针对预训练模型很多公司都有一些改进,这里就不一一列举了。

深度 | 周明:自然语言处理的未来之路 | CCF-GAIR 2019

现在由于这种预训练模型大行其道,人们在思考,自然语言处理是不是应该改换一种新的模态。过去我们都说用基于知识的方法来充实当前的输入,但是过去都没有做到特别好,而这种新的预训练模型给我们带来一个新的启发:

我们可以针对大规模的语料,提前训练好一个模型,这个模型既代表了语言的结构信息,也有可能代表了所在领域甚至常识的信息,只不过我们看不懂。加上我们未来的预定的任务,这个任务只有很小的训练样本,把通过大训练样本得到的预训练模型,做到小训练样本上,效果就得到了非常好的提升。

 


未来发展

现在,NLP在许多任务上的性能都已经超越了人类。听起来世界一片大好,我们把数据准备好,买一大堆机器,只需要去训练就好了,不用管太多的事情。所以现在好多人在刷榜,有了新的任务,搞一堆模型、一堆数据、一堆机器,刷个榜,我们就毕业了。

但是我认为不是这样的,反而有强烈的危机感。

下面我就跟大家分析一下,目前存在的问题,以及我们应该怎么做才好。

第一个是无休止的计算资源的军备竞赛。现在大家都用大规模的机器训练,同样的算法,只要训练速度快,就可以快速迭代,然后你的水平就比别人高。与之同时,当然也特别耗资源,许多模型一训练可能要好几天或者好几万美金。有时候它管事,但有时候也不管事。举个例子:

深度 | 周明:自然语言处理的未来之路 | CCF-GAIR 2019

在这个例子中,它用了10倍的蛮力,但是只有0.2%的效率提升。由于用了很多的资源,造成了环境的污染。最近有一篇网上比较火的论文,就是在讨论这个计算模型。如果我们太依赖算力,就会对环境产生很大的影响。

第二个是过度依赖数据。首先你要标数据,标注的代价是非常大的。其次,数据有隐含歧视的问题,通过数据分析,可能会得到歧视性的结果。另外数据有偏差,数据在标注的时候请人标注,人都是偷懒的,想最简单的方法去标注,结果标注的数据千篇一律,基于这样的数据学的模型也只能解决标注的数据,拿到真实任务上由于跟你标注分布不一样,所以根本不好使。比如说我们做Q&A问答系统,我们在所有的问答里面都假设是第一名,但到了搜索引擎上有很多简单的问题都解决不好。此外,还有数据隐私保护等等问题。

我们现在再往前走一走,看一看,假如我们不在乎资源,不在乎计算,我们看神经网络处理一些典型的任务,它的表现如何,有哪些问题。

我这里选了三个最典型的问题。第一个是Rich Resource Tasks,即有足够资源的任务,比如中英机器翻译,网上有很多的资源。第二个Low Resources Tasks,即资源很少或没有资源,比如说中文到希伯来语的翻译,几乎没有什么资源。第三个是Multi-turn Tasks,就是多轮的意思,我们的客服都是多轮的。这三类问题基本上代表了自然语言最基本的问题,如果这三类问题都解决得很好,自然语言就基本OK了。我们看看这三类问题现在处于什么位置上。

针对Rich Resource Tasks,我们做一个中-英神经网络机器翻译错误分析。这是一个大语料训练的结果,

我这里选了三个最典型的问题。第一个是Rich Resource Tasks,即有足够资源的任务,比如中英机器翻译,网上有很多的资源。第二个Low Resources Tasks,即资源很少或没有资源,比如说中文到希伯来语的翻译,几乎没有什么资源。第三个是Multi-turn Tasks,就是多轮的意思,我们的客服都是多轮的。这三类问题基本上代表了自然语言最基本的问题,如果这三类问题都解决得很好,自然语言就基本OK了。我们看看这三类问题现在处于什么位置上。

针对Rich Resource Tasks,我们做一个中-英神经网络机器翻译错误分析。这是一个大语料训练的结果,

深度 | 周明:自然语言处理的未来之路 | CCF-GAIR 2019

我们可以看到,尽管是基于大语料的,但翻出来的结果还有很多错误,包括翻错词、丢词、不合语法等。

深度 | 周明:自然语言处理的未来之路 | CCF-GAIR 2019

例如这个“土方”不是“earth”,而是“土耳其”的意思。因为神经网络现在不可解释,它是黑箱,你也不知道它在哪儿丢的,有可能是数据问题,有可能是模型问题。

深度 | 周明:自然语言处理的未来之路 | CCF-GAIR 2019

还有成语,成语是很麻烦的,你即使学了很多的成语,在一个新的句子中,成语的翻译也要发生变化,所以它要动态的计算。

所以即使在这样的足够资源的算法里面,仍然存在众多的问题要研究,比如说丢词,如何把词典集成进来,如何上下文判断一些问题,然后还有领域自适应、主体自适应等等,谁也不敢说这些问题通过Rich-Resource就解决了,这里面有上下文件联系的问题,还有数据歧视的问题,还有Multi-task learning,还有Human knowledge。

第二个是Low Resources Tasks,就是没什么语料,学起来很难,因此要借力。常用的有三种。


  • 第一是迁移模型,把从其它语料中学习到的内容迁移过来。迁移训练最常见的就是前面介绍的预训练模型,把它加到目标任务上。

  • 第二是跨语言学习,即从其它语言学习过来。比如说英文有很多语料,我把英文的训练模型用到法语、德语上,这个方式很流行。

  • 第三是利用种子进行迭代学习,比如我有一个小辞典,有几条规则,有几条双语,我能不能用它当做一个引子,做一个冷启动,启动之后再迭代改进。

虽然我们做了很多的研究,但是在Low-Resource方面,我们并没有一个很好的办法。首先Low-Resource如何建模,如何从数据分析中做无监督或少监督的学习,这是没有明确回答的问题。怎么做Transfer Learning,怎么做Unsupervised learning,也是目前的一个难题。还有一些先验的规则辞典,如何让它冷启动起来;人能不能参与其中帮助一个开始弱小的系统逐渐变得更加强大。这些都是目前热门的话题,都还没有很好地解决。

第三个是Multi-turn Task(多轮问题)。以多轮对话为例。我们看下面这个例子:

深度 | 周明:自然语言处理的未来之路 | CCF-GAIR 2019

我们可以看到,对于小孩子很简单的问题,电脑却不知道该怎么回答。其原因在于目前的自然语言处理还没有很好地解决常识和推理的问题。

深度 | 周明:自然语言处理的未来之路 | CCF-GAIR 2019

此外,还有前后不一致、自我矛盾的问题。比如说用户问“你今天多大了”?聊天机器人说“我16了”。隔几天用户又问“你今天多大了”?它可能说“我24岁”,自己前后不一致了.还有空间不一致、逻辑不一致的问题.这就需要人跟机器对话的时候,要有一个记忆体系,把说过的话的特征存储起来,将来在用的时候,要抽取这样的信息来表征一个机器人各方面的信息。

推理是要做很多事情。第一是要了解上下文,说过什么话,答过什么问题,干过什么事都要存储起来,记忆起来。第二是各种各样的知识要用起来。第三才是推理的部分,这里面涉及到语义分析、上下文的指代消解、省略消解。最后,还有就是可解释的问题,如果你的推理不可解释的话,那就没有人会相信,导致你的系统无法进行进一步的推进。

深度 | 周明:自然语言处理的未来之路 | CCF-GAIR 2019

我们要做推理,一般来讲就是设计这样的模型.它有记忆,记住我说过什么话,或者有哪些知识;有一个读的装置和一个写的装置,来了一个问题,经过分析,到记忆里把状态和知识找出来,把原来的记忆找出来,然后改变我们的对话状态;更新在记忆里的一些存储。得到答案后,还要反过来更新我们的记忆和存储。

 


未来之路

我们未来到底需要什么样的自然语言处理系统呢?我认为要做出可解释、有知识、有道德、可自我学习的NLP系统。这是一个很高的目标,现在离这个目标差得很远。

我们怎么样来实现这样的目标呢?我们要从具体的任务出发,找出存在的问题。刚才我说了,Rich-Resource存在什么问题呢?上下文建模、数据纠偏、多任务学习、人类知识的理解。再往下,Low-Resource又有什么问题要解决呢?我也列出了一些问题。多轮要解决什么问题呢?就是要解决知识常识、上下文建模、推理机制、可解释等等。

如果我们有所推进的话,我们的认知智能就会进一步提升,包括语言的理解水平、推理水平、回答问题能力、分析能力、解决问题的能力、写作能力、对话能力等等。然后再加上感知智能的进步,声音、图象、文字的识别和生成的能力,以及多模态文、图交叉的能力,通过文字可以生成图象,根据图象可以生成描述的文字等等,我们就可以推进很多人类的应用,包括搜索引擎、智能客服,包括教育、财政、电子商务等等各个方面的应用。也可以把AI技术用在我们的产业上,帮助产业实现数字化转型。

要想实现这件事其实是不容易的,需要各个方面综合努力,所以NLP的未来之路需要不同的公司、学校、政府、企业、投资等等各个角度进行配合。

深度 | 周明:自然语言处理的未来之路 | CCF-GAIR 2019

我这里总结一下,主要有6个角度非常重要。

第一是计算机的能力,刚才说到芯片、存储器、云计算和管理,与之有关的还有模型压缩和加速问题。

第二是数据方面,数据非常重要,全社会都要贡献自己的数据,然后取长补短,大家一起努力。数据上面还有一个隐私保护下的学习,这是非常重要的一点。

第三是模型,刚才说到很多,有监督的学习、无监督的学习、少监督的学习,然后是预训练模型,还有神经网络跟人类知识和常识如何结合,把推理和可解释性融入到我们的学习体系之中。

第四是人才培养,一定要靠人来实现整体的过程。人才如何进行培养呢?要注重实践性,让他们有很强的实践意识,而不是天天去推公式,还要有逻辑上的理解。

第五是合作,校企合作、不同学科的合作、国家的合作、企业界、投资界、政府各个方面的合作,形成一个生态,大家在里面各得其所,来稳步推进。

第六是强调应用,通过应用获得真实的数据、用户的反馈,然后改进我们的系统,也通过应用提升学生的动手能力,也是通过应用使我们了解人和机器在一个真实的系统里如何相得益彰、互相配合,实现人工智能和人类智能的双向结合

谢谢大家!

End


推荐阅读
  • 生成式对抗网络模型综述摘要生成式对抗网络模型(GAN)是基于深度学习的一种强大的生成模型,可以应用于计算机视觉、自然语言处理、半监督学习等重要领域。生成式对抗网络 ... [详细]
  • 云原生边缘计算之KubeEdge简介及功能特点
    本文介绍了云原生边缘计算中的KubeEdge系统,该系统是一个开源系统,用于将容器化应用程序编排功能扩展到Edge的主机。它基于Kubernetes构建,并为网络应用程序提供基础架构支持。同时,KubeEdge具有离线模式、基于Kubernetes的节点、群集、应用程序和设备管理、资源优化等特点。此外,KubeEdge还支持跨平台工作,在私有、公共和混合云中都可以运行。同时,KubeEdge还提供数据管理和数据分析管道引擎的支持。最后,本文还介绍了KubeEdge系统生成证书的方法。 ... [详细]
  • 无损压缩算法专题——LZSS算法实现
    本文介绍了基于无损压缩算法专题的LZSS算法实现。通过Python和C两种语言的代码实现了对任意文件的压缩和解压功能。详细介绍了LZSS算法的原理和实现过程,以及代码中的注释。 ... [详细]
  • 本文介绍了Python语言程序设计中文件和数据格式化的操作,包括使用np.savetext保存文本文件,对文本文件和二进制文件进行统一的操作步骤,以及使用Numpy模块进行数据可视化编程的指南。同时还提供了一些关于Python的测试题。 ... [详细]
  • 本文介绍了H5游戏性能优化和调试技巧,包括从问题表象出发进行优化、排除外部问题导致的卡顿、帧率设定、减少drawcall的方法、UI优化和图集渲染等八个理念。对于游戏程序员来说,解决游戏性能问题是一个关键的任务,本文提供了一些有用的参考价值。摘要长度为183字。 ... [详细]
  • 3年半巨亏242亿!商汤高估了深度学习,下错了棋?
    转自:新智元三年半研发开支近70亿,累计亏损242亿。AI这门生意好像越来越不好做了。近日,商汤科技已向港交所递交IPO申请。招股书显示& ... [详细]
  • 推荐 :以数据驱动的方式讲故事
    直觉vs数据首先,你有思考过一个问题吗?当你的直觉与你所掌握的数据矛盾的时候,你是听从于直觉还是相信你所掌握的数据呢?201 ... [详细]
  • 干货 | 携程AI推理性能的自动化优化实践
    作者简介携程度假AI研发团队致力于为携程旅游事业部提供丰富的AI技术产品,其中性能优化组为AI模型提供全方位的优化方案,提升推理性能降低成本࿰ ... [详细]
  • 软件测试工程师,需要达到什么水平才能顺利拿到 20k+ 无压力?
    前言最近看到很多应届生晒offer,稍有名气点的公司给出的价格都是一年30多W或者月薪20几k,相比之下工作几年的自己薪资确实很寒酸.根据我自己找工作经历,二线城市一般小公司招聘 ... [详细]
  • XML介绍与使用的概述及标签规则
    本文介绍了XML的基本概念和用途,包括XML的可扩展性和标签的自定义特性。同时还详细解释了XML标签的规则,包括标签的尖括号和合法标识符的组成,标签必须成对出现的原则以及特殊标签的使用方法。通过本文的阅读,读者可以对XML的基本知识有一个全面的了解。 ... [详细]
  • HTML学习02 图像标签的使用和属性
    本文介绍了HTML中图像标签的使用和属性,包括定义图像、定义图像地图、使用源属性和替换文本属性。同时提供了相关实例和注意事项,帮助读者更好地理解和应用图像标签。 ... [详细]
  • 浏览器中的异常检测算法及其在深度学习中的应用
    本文介绍了在浏览器中进行异常检测的算法,包括统计学方法和机器学习方法,并探讨了异常检测在深度学习中的应用。异常检测在金融领域的信用卡欺诈、企业安全领域的非法入侵、IT运维中的设备维护时间点预测等方面具有广泛的应用。通过使用TensorFlow.js进行异常检测,可以实现对单变量和多变量异常的检测。统计学方法通过估计数据的分布概率来计算数据点的异常概率,而机器学习方法则通过训练数据来建立异常检测模型。 ... [详细]
  • Vue基础一、什么是Vue1.1概念Vue(读音vjuː,类似于view)是一套用于构建用户界面的渐进式JavaScript框架,与其它大型框架不 ... [详细]
  • 2018年数字化转型调查
    PointSource发布了2018年数字化转型调查,主要发现包括:1、由于缺乏战略,企业迫切需要进行数字化转型。2、企业急于开始数字化转型过程,但他们缺乏进行智能投资的战 ... [详细]
  • 老牌医药收割AI红利:先投个15亿美元抢中国人才
    萧箫发自凹非寺量子位报道|公众号QbitAI没想到,一场大会把我的“刻板印象”攻破了。2021世界人工智能大会现场,能看见不少熟悉的身影, ... [详细]
author-avatar
cjcstc@163.com
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有